К тому же большие данные (Big Data) и персональные данные людей собираются, обрабатываются, анализируются и монетизируются IT гигантами и другими корпорациями. В работе «Эпоха надзорного капитализма: борьба за будущее человечества на новых рубежах власти», Ш. Зубофф (профессор Гарвардской бизнес-школы) наглядно демонстрирует последствия проникновения «надзорного капитализма» из Кремниевой долины во все сектора экономики. Огромное богатство и власть аккумулируются на зловещих новых «поведенческих фьючерсных рынках», где прогнозы о нашем поведении покупаются и продаются, а производство товаров и услуг подчинено новым «средствам модификации поведения». Здесь находится горнило беспрецедентной формы власти, характеризующейся крайней концентрацией знаний и свободной от демократического контроля [2].
Таким образом, в глобальном плане, технологии искусственного интеллекта (ИИ) являются одним из инструментов построения нового «глобального порядка» в эпоху пост-капитализма. Большие данные (Big Data) и особенно персональные данные используются корпорациями для накопления поведенческого капитала, который выступает основой для формирования нового «глобального порядка». Учитывая, что в таком новом «порядке» политическая власть будет принадлежать корпорациям, а не государствам, - то главной задачей государства должно быть сохранение своего статуса как субъекта верховной власти в стране и защита цифрового суверенитета страны. На наш взгляд, правовое регулирование отношений, связанных с ИИ на национальном уровне должно базироваться на этой основополагающей идее.
В настоящее время сложилась ситуация, когда юристы более склонны обслуживать интересы корпораций и всего лишь обеспечивать правовое сопровождение коммерческих и бизнес-процессов. В то время как, юристы должны помнить о своей роли в обществе - как хранителей общечеловеческих ценностей и социального порядка. Такая роль юристов особенно важна в правовом регулировании новых технологий, в том числе ИИ, где юристы должны отстаивать ценность человека как существа и человека как субъекта права, препятствуя его превращению в объект права, а также защищать ценности социального порядка. Исходя из сказанного, в концептуально-научном плане предметом международно-правового регулирования должна была бы выступать непосредственно сама деятельность ТНК (IT гигантов и цифровых платформ), а не условия использования их технологии. Предметом же регулирования национального права следовало бы рассматривать общественные отношения (а не технологии ИИ) и деятельность различных субъектов в юрисдикции нашего государства, связанную с разработкой и использованием таких технологий.
2. Предложения по доработке проекта Концепции развития искусственного интеллекта на 2024 - 2029 годы [3] (далее - проект) следующие.
1) Разработчики проекта констатируют, что согласно Индексу готовности правительства, к искусственному интеллекту на 2023 год, проведенному Oxford Insights, Казахстан находится на 72 месте среди 193 стран. В мире уже несколько лет ведется гонка технологий ИИ, в которой есть два явных лидера - США и КНР, в основном благодаря наличию таких технологических гигантов (Google, Facebook, Microsoft, Alibaba, Baidu и Tencent), а также значительным инвестициям в исследования и разработки в области ИИ. Здесь, по нашему мнению, можно было бы показать концептуальные различия моделей ИИ этих двух ведущих стран - глобальных конкурентов. Так, по мнению экспертов, в конечном счете, столкновение КНР и США имеет сильную ценностную составляющую или политическую модель. И в основе этого столкновения лежит преимущественно технологическая динамика; два совершенно разных способа понимания общества, личности и политических прав в цифровом пространстве. Китайская модель построена на широком внедрении технологий мониторинга и агрегирования информации, последние из которых производятся на высоких уровнях административного аппарата и могут поступать из частных и государственных источников [4].
2) В качестве барьеров в развитии ИИ в РК отмечается отсутствие современной инфраструктуры и достаточного количества вычислительных мощностей для ИИ. Авторы проекта правильно обращают внимание на риски безопасности использования технологий ИИ, включая риски утечки персональных данных (Раздел 2. Анализ текущей ситуации). Вместе с тем здесь важно было бы указать что, если не установлены ограничения на информацию, которую корпорации могут собирать от граждан, возможен практически постоянный мониторинг их поведения, при котором корпорации знают все наши вкусы и предпочтения и использует их в своих целях. Такие технологии, как ИИ, делают этот сценарий гораздо более вероятным; особенно если достижения в области сбора и обработки информации сочетаются с достижениями в области поведенческих наук и нейробиологии [4]. Исходя из этого, в Концепции важно было бы предусмотреть концептуальные основы права и полномочий государства устанавливать ограничения на тип, количество, задержку и степень детализации информации, которую корпорации могут собирать от граждан и организаций. К примеру, решением проблемы управления рисками может быть рецепция норм GDPR (Общий регламент по защите данных ЕС) [5] и Акта (Регламента) об искусственном интеллекте ЕС [6] и других.
3) Индустрия ИИ в настоящее время определяется чипами, интеллектуальными роботами и дронами, технологическими платформами, технологиями обработки естественного языка, распознавания речи, приложениями машинного обучения, компьютерного зрения и изображений, и автоматическом вождении. Крупные технологические компании в США и КНР доминируют в сфере инноваций в промышленности и включают такие компании США как Google, Amazon, Meta, Apple, Microsoft, IBM, NVIDEA, Open AI, a также китайские компании Baidu, Alibaba, Tencent, Huawei, Xiaomi (Раздел 3. Обзор международного опыта). Разработчики проекта указывают, что по мере распространения революции в области ИИ может появиться и продолжать расширяться разрыв между развитыми и развивающимися странами. Здесь следовало бы указать на глобальные риски для государства, если оно ничего не будет делать. Мир меняется экспоненциально. Главной движущей силой этого процесса трансформации являются технологии и их все более ускоренное внедрение. Это породило новую плоскость международных отношений: технологическую, которая уже стала новым пространством столкновения между государствами, где урегулируются стратегические ценности и интересы. Если страны хотят иметь возможность защитить своих граждан от угроз 21-го века, обеспечить экономический рост, качественные рабочие места, а также сохранить демократические ценности, им будет крайне важно развернуть эффективную технологическую дипломатию. Это потребует институциональных инноваций, подготовки кадров, способных говорить на языке дипломатии и технологий, а также структуры постоянного диалога между обществом и частным сектором [4].
4) В проекте Концепции представлена информация о существующих в мире свыше 7000 крупных дата-центров, из которых больше 800 гипер-масштабируемых, со специальной архитектурой, позволяющей обрабатывать экзабайты (миллионы терабайт) информации. Мимоходом отмечается, что происходит параллельное развитие сферы управления данными. В 2022 году объемы всех данных, накопленных человечеством, составили примерно 97 зеттабайт, а к 2025 году это число возрастет до 180 зеттабайт. По данным исследования агентства LaunchSquad, 96% компаний крупного и среднего бизнеса анализируют собранные данные. В этой связи, на наш взгляд, следовало бы обратить особое внимание государства и общества на формирующиеся рынки данных, которые выступают основой «новой цифровой экономики». К примеру, о важности этого, можно судить по политике китайского правительства, считающего развитие этого рынка - одной из основополагающих задач создания новой цифровой экономики КНР, которое обеспечит их глобальное лидерство в будущем [7].
5) В проекте Концепции указаны 13 основных вопросов (направления регулирования), которые ставят перед собой государства при нормативно-правовом регулировании ИИ, а также 5 подходов к определению правового положения ИИ (Раздел 3. Обзор международного опыта). Видимо проект документа разрабатывался до принятия Акта (Регламента) об искусственном интеллекте ЕС [6], так как многие из затронутых вопросов уже нашли свое решение. К примеру, определение ИИ, закреплено в статье 12 Акта (Регламента) ЕС об ИИ. Другие неопределенные правовые вопросы, которые разработчики поднимают в проекте также получили свое решение. Поэтому, следует обновить положения Концепции в этой части.
6) Разработчики проекта Концепции правильно отмечают, что дальнейшее развитие ИИ и роботизации может привести не к очередной промышленной революции, а к смене социально-экономической формации. Здесь они задаются вопросом: если при феодализме отчуждалась земля, а при капитализме отчуждается труд, и если труд человека будет полностью заменен ИИ - какую добавочную стоимость теперь должен давать человек в процессе производства? - и не находят ответа (Раздел 4. Видение реализации развития ИИ). На наш взгляд, здесь нам нужны знания и смелость признать, что главный фактор, который отчуждается IT гигантами и контролируется им, - это человеческое поведение. И если капитализму предшествовало первоначальное накопление капитала, то у истоков, в основе пост-капитализма (ранней формой и является то, что Ш. Зубофф неточно назвала «надзорный капитализм») - накопление поведенческого капитала. «Здесь наше поведение, привычки и опыт упаковываются таким образом, что они служат чужим интересам и человек становится сырьём» [8]. Европейский человеко-центрированный подход к регулированию ИИ, который мы могли бы заимствовать, предлагает правовые механизмы решения этого жизненно важного и ценностного противоречия.
7) Разработчики проекта Концепции видят развитие ИИ в РК посредством создания экосистемы ИИ, и для этого предлагают провести работу по следующим направлениям: инфраструктура; данные; человеческий капитал; НИОКР. Практический интерес, по их мнению, представляют функций, выполняемые прикладным (узкоспециализированным) ИИ, а также вопросы эффективного внедрения соответствующих решений в государственное управление и приоритетные отросли экономики (Раздел 5. Основные принципы и подходы развития). Этим, авторы проекта как бы указывают на возможные направления практической работы уполномоченных государственных органов и компаний в сфере развития ИИ в РК с учетом их понимания ограниченных возможностей Казахстана. По нашему мнению, не следует ограничивать возможные направления развития ИИ в РК, и здесь необходим учет экспертных мнений всех потенциальных участников этой индустрии и заинтересованных лиц.
8) В подразделе «Направление 5. Экономика искусственного интеллекта» проекта Концепции представлены задачи, требующие первоочередного решения в рамках формирования национальной системы правового регулирования в сфере ИИ. Он выглядит достаточно проработанным и сформулированным на основе экспертных мнений. Однако, разработку и принятие норм по соблюдению прав и свобод человека, недопущение всех видов дискриминации вследствие некачественных решений ИИ, обеспечение соответствия нравственным, духовным и культурным ценностям Казахстана - не стоит «отдавать на откуп» самим участникам индустрии ИИ в виде принятия ими этических правил в сфере ИИ. Принятие и обеспечение исполнения правовых норм на законодательном и подзаконном уровне по охране и защите человека, его достоинства, прав, свобод и законных интересов, а также по защите культурно-цивилизационных ценностей нашего общества в сфере технологий ИИ - должно быть исключительной прерогативой государственных органов.
3. Выводы и предложения по вопросам правового регулирования технологий ИИ в РК.
а) Наш ответственный подход как государственников в правовом регулировании технологий ИИ должен учитывать не только стремление Казахстана занять долю рынка IT индустрии (т.е., только узкие экономические интересы), но что более важно - понимание того, что основной ценностью страны (и основным активом) выступают Большие данные (Big Data) и особенно персональные данные наших граждан и организаций, которые формируют поведенческий капитал. А, поведенческий капитал, как было отмечено выше, является основой «новой цифровой экономики» (уже в настоящее время) и выступает основой зарождающегося нового «глобального порядка». Государство не должно отдавать этот главный актив и будущую основу власти (если хочет сохраниться как институт верховной власти в стране) в руки ТНК.
б) Как правило, при правовом регулировании необходимо определиться: какие конкретные вопросы следует регулировать? Как регулировать и почему? В этом плане, конечно же мы будем использовать уже разработанные подходы и нормы других стран. Так, мы могли бы принять т.н. европейскую модель регулирования ИИ, заложенную в GDPR (Общий регламент по защите данных ЕС) [5] и Artificial Intelligence Act EU (Акт (Регламент) об искусственном интеллекте ЕС) [6] и других актах. Это покажет стремление государства обеспечить защиту персональных данных и регулирование технологий ИИ на уровне международно-признанных стандартов. Предполагается, что IT гиганты имея негативный опыт нарушения европейских норм - будут воздерживаться от неправомерных действий в киберпространстве РК. Казахстан по правовым основам защиты персональных данных и регулирования ИИ будет ориентироваться на опыт развитых стран, что не только должно укрепить наш международный имидж, но и способствовать стимулированию инноваций. Это также должно показать мировому сообществу о намерении Казахстана защищать свой цифровой суверенитет.
в) Также следует согласиться с мнением экспертов (Абдрасилов А. и др.) о том, что нет необходимости принятия отдельного закона об ИИ. Во-первых, в проекте закона об ИИ отсутствуют какие-либо новеллы, во-вторых, по такой логике, пришлось бы принимать отдельные законы о технологии 5G, о сетевой модели ТСРЯР, о глобальной спутниковой системе Star Link и т.п. Законы должны быть вне контекста технологий и не нужно под каждую технологию писать отдельный закон. К тому же известно, что одновременно с разработкой закона об ИИ ведется разработка Цифрового кодекса, в котором имеется отдельный раздел, посвященный ИИ. В случае принятия Кодекса, придется закон об ИИ ставить на отмену.
г) Важно в целостном виде заимствовать определенную модель регулирования ИИ, а не имплементировать отдельные положения из разных моделей и подходов. Человеко-центрированная и риск-ориентированная европейская модель представляется для нас на данном этапе развития более подходящей по многим причинам. Среди которых можно назвать: высокое качество правовых норм, способных выступать международно-признанными стандартами в этой сфере (по примеру GDPR - Общего регламента по защите данных ЕС); ориентированность на защиту цифрового суверенитета государств-членов ЕС; способность перевешивать слабые стороны (доля компаний ЕС на мировом рынке технологий ИИ около 1,5%) посредством сильной стороны - качественного нормативного регулирования. Также европейской модели регулирования ИИ характерны: способности эффективной защиты от агрессивных действий IT гигантов и цифровых платформ США и КНР; ценностный (человеко-центрированный) подход; институты континентальной (романо-германской) правовой системы облегчающие понимание их смысла, содержания и их имплементацию; схожая правовая культура и другие. К тому же около 80-ти стран в той или иной мере разрабатывают свое законодательство опираясь на европейский подход в этой сфере, что может в будущем облегчить гармонизацию законодательств государств.
д) Правовое регулирование должно учитывать комплексность характера такого регулирования. Так, со сферой ИИ связаны и требуют согласованности и координации следующие основные вопросы, регламентируемые самостоятельными правовыми актами: большие данные (Big Data); персональные данные; информатизация, ИКТ и цифровые технологии, национальная безопасность; кибербезопасность; киберпреступность; интеллектуальная собственность; антимонопольное регулирование; космическая деятельность; обороноспособность и сфера вооружений; технологическая дипломатия и другие. Поэтому в разработке проекта Концепции развития ИИ в РК и законодательных актов в этой сфере, кроме МЦРИАП РК, требуется участие: Института законодательства и правовой информации РК МЮ РК, Администрации Президента РК, МИД РК, органов национальной безопасности, Генеральной прокуратуры РК, Верховного суда РК, МВД РК, МНиВО РК, МНЭ РК, МФ РК и других государственных органов и организаций, а также представителей экспертного и академического сообщества.
е) Нашему проекту Концепции можно было бы дать идейную основу (в ее названии) по примеру указа Президента США о запуске Американской инициативы в области ИИ - Accelerating America's Leadership in Artificial Intelligence, 2019 (Ускорение лидерства Америки в области искусственного интеллекта). Такое название отражает цель принятия документа - это «Сохранение американского лидерства в области ИИ имеет первостепенное значение для поддержания экономической и национальной безопасности США». Казахстанской идейной основой и целью принятия Концепции развития ИИ могла бы стать идея сохранения и укрепления суверенитета (в т.ч. цифрового) государства как нации и института верховной власти в стране, которая красной нитью пронизывала бы все законодательство РК, регулирующее рассматриваемую сферу отношений.
Список использованных источников:
1. Фурсов А.И. Пересдача карт Истории..., 19 октября 2023 / https://dzen.ru/a/ZTErlkt21ku8LCOi
2. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier January 15, 2019 by Shoshana Zuboff.
3. Проект Концепции развития искусственного интеллекта на 2024-2029 годы (Казахстан) / https://legalacts.egov.kz/npa/view?id=14945497
4. Muňiz, Manuel. «Diplomacia tecnológica para la era digital» (Технологическая дип ломатия в цифровую эпоху). Revista CIDOB d'Afers Internacionals, n. 134 (septiembre de 2023), p. 91-102. DOI: doi.org/10.24241/rcai.2023.134.2.91
5. General Data Protection Regulation / Regulation (EU) 2016/679 (Общий регламент по защите данных / Регламент (ЕС) 2016/679) / https://gdpr-info.eu/
6. Artificial Intelligence Act European Parliament legislative resolution of 13 March 2024 ... (Artificial Intelligence Act) and amending certain Union Legislative Acts (COM(2021)0206 - C9-0146/2021-2021/0106(COD)) / https://www.europarl.europa.eu/doceo/document/-TA-9-2024-0138_EN.pdf
7. Законы и положения об искусственном интеллекте, машинном обучении и больших данных 2023 г. Китай / https://www.globallegalmsights.com/practice-areas/ai-machine-learning-and-big-data-laws-and-regulations/china и Бугаенко А. Разные скорости: чем Казахстану может быть полезен пример цифровизации КНР? 2020 / https://ekonomist.kz/bugavenko/cifrovizaciya-kazahstan-kitai-internet-skorost/
8. Фурсов А. По ту сторону свободы и достоинства..., 31 октября 2023 г. / https://dzen.ru/a/ZUCzXN30nXso8NTd
РИСК-ОРИЕНТИРОВАННЫИ ПОДХОД В РЕГУЛИРОВАНИИ СФЕРЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Кабытов Павел Петрович
И.о. заведующего лабораторией правового регулирования
информационных технологий и защиты информации Института
законодательства и сравнительного правоведения при Правительстве
Российской Федерации, кандидат юридических наук
Назаров Никита Алексеевич
Младший научный сотрудник лаборатории правового регулирования
информационных технологий и защиты информации, аспирант
Института законодательства и сравнительного правоведения при
Правительстве Российской Федерации
Хотя практика и подходы к регулированию искусственного интеллекта (далее - ИИ) в странах достаточно многообразны [1, с. 71-98], одним из распространенных трендов при формировании соответствующего правового регулирования стало использование риск-ориентированного подхода.
«Законодателем мод» тут стал европейский законодатель, который предложил использовать риск-ориентированный подход при проектировании Регламента Европейского парламента и Совета Европейского союза (ЕС) от 21 апреля 2021 года «Установление согласованных правил в области искусственного интеллекта (Закон об искусственном интеллекте) и внесение изменений в некоторые законодательные акты Союза» (далее - Закон ЕС об ИИ)25.
В указанном Законе системы ИИ исходя из их риска, под которым понимается сочетание вероятности причинения вреда и тяжести этого вреда, разделены на четыре группы:
1) представляющие «неприемлемую степень риска», размещение на рынке, ввод в эксплуатацию или использование которых запрещается в Европейском союзе (далее - ЕС). К числу таких систем отнесены системы, направленные на манипулирование поведением лиц, искажение поведения, определение эмоций физического лица на рабочих местах и в образовательных учреждениях, оценку рецидива исключительно на основе профилирования).
2) высокорисковые системы ИИ, размещение на рынке, ввод в эксплуатацию или использование которых предполагает выполнение широкого перечня обязательных требований в части: а) формирования и внедрения оператором системы управления риском; б) проверки и тестирования обучающих данных; в) ведения технической документации и журналов учета; г) обеспечения прозрачности и объяснимости, д) формирования системы человеческого надзора; е) обеспечения точности, надежности и кибербезопасности; ж) оценки соответствия, сертификации, маркировки и регистрации систем ИИ.
__________________________
25 Proposal for a regulation of the European parliament and of the council laying down harmonised rules on artificial intelligence (artificial intelligence act) // Eur-lex. URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206 (дата обращения: 04.08.2024)
К числу таких систем отнесены системы, использующие биометрические данные, если их использование разрешено, системы, которые используются как компонент критической инфраструктуры, а также в сфере образования, занятости, государственном управлении и деятельности правоохранительных органов.
3) системы ИИ, несущие ограниченный риск, размещение на рынке, ввод в эксплуатацию или использование которых предполагает выполнение отдельных обязательств по обеспечению прозрачности (информирование о взаимодействии с системой ИИ, маркировка сгенерированного контента).
К числу таких систем отнесены системы, предназначенные для непосредственного взаимодействия с физическими лицами, в том числе, чат-боты, системы генерации синтетического аудио-, графический, видео- или текстовый контента.
4) системы ИИ, несущие минимальный риск, к которым Закон ЕС об ИИ не применяется при условии, если они выпущены по бесплатным лицензиям с открытым исходным кодом. К таким системам относятся все иные системы ИИ, не охваченные другими группами (например, используемые сугубо в компьютерных играх).
Кроме того, особый аспект правового регулирования в указанном Законе занимает прозрачность и объяснимость ИИ. Так, в статье 13 Закон ЕС об ИИ закреплено, что системы ИИ с высоким уровнем риска должны быть спроектированы и разработаны таким образом, чтобы обеспечить достаточную прозрачность их работы, позволяющую установщикам (deployers) интерпретировать результаты работы системы и использовать их надлежащим образом. При этом возможным обеспечением прозрачности служит статья 86, которая закрепляет, что любое затрагиваемое лицо, в отношении которого принимается решение, принимаемое установщиком на основе результатов работы системы ИИ с высокой степенью риска, перечисленной в приложении III Закона, за исключением систем, перечисленных в части 2 статьи 86 Закона, и которое имеет правовые последствия или столь же существенно затрагивает это лицо таким образом, что, по их мнению, оказывает неблагоприятное воздействие на их здоровье, безопасность или основные права имеет право на получение от установщика четких и содержательных разъяснений роли системы ИИ в процедуре принятия решений и основных элементов принятого решения.
Органы публичной власти многих стран заявляют о планах имплементации риск-ориентированного подхода к регулированию ИИ в свое законодательство, что является проявлением так называемого «брюссельского эффекта», выражающегося в воспроизводстве европейского подхода к регулированию цифровых технологий с целью сохранения доступа национальных компаний на европейский рынок, поскольку чем крупнее и состоятельнее потребительский рынок, тем больше вероятность того, что компании-экспортеры будут соответствовать его стандартам. По аналогии с Регламентом № 2016/679 Европейского парламента и Совета Европейского Союза «О защите физических лиц при обработке персональных данных и о свободном обращении таких данных, а также об отмене Директивы 95/46/ЕС (Общий Регламент о защите персональных данных)» (General Data Protection Regulation)26 Закон ЕС об ИИ придал нормам, регулирующим применение ИИ, трансграничное действие посредством установления обязательности выполнения норм указанного закона иностранными компаниями, которые взаимодействуют с гражданами стран ЕС.
Например, в Канаде был представлен проект Закона об осуществлении Цифровой хартии 2022 года, который предполагает значительное расширение закона о персональных данных для частной сферы и создание новых правил для ответственного развития и использования ИИ. В рамках этого законопроекта под номером С-27 предусмотрено принятие трех отдельных законов: Закона о защите частной жизни потребителей, Закона о трибунале по защите персональных данных и информации и Закона об ИИ и данных27.
При этом предполагается, что Закон об ИИ и данных заложит основу для ответственного проектирования, разработки и внедрения систем ИИ, которые влияют на жизнь канадцев, а также обеспечит, чтобы системы ИИ, используемые в Канаде, были безопасными и недискриминационными28.
По аналогии с Законом ЕС об ИИ, рассматриваемым законопроектом предлагается введение риск-ориентированного подхода. В сопроводительных документах к законопроекту отмечено: «Взаимодействие с правовыми рамками других юрисдикции также будет ключевым фактором при разработке правил, чтобы облегчить доступ канадских компаний к международным рынкам <...> Законопроект соответствует проекту закона Европейского Союза об ИИ, применяя подход, основанный на риске» .
Однако в отличие от Закона ЕС об ИИ в рассматриваемом законопроекте большой акцент сделан только на «высокоэффективные системы ИИ» («high-impact AI systems». Ключевыми факторами, которые следует учитывать при определении того, какие системы ИИ будут считаться высокоэффективными, являются:
- доказательства риска причинения вреда здоровью и безопасности или риска неблагоприятного воздействия на права человека, основанные как на предполагаемой цели, так и на возможных непредвиденных последствиях;
- серьезность потенциального вреда;
- масштаб использования;
- характер уже имевшего место вреда или неблагоприятного воздействия;
- степень, в которой по практическим или юридическим причинам невозможно отказаться от этой системы;
- несбалансированность экономических или социальных обстоятельств или возраста пострадавших;
- степень адекватности регулирования рисков в рамках другого законодательства.
_________________________
26 Регламент Европейского Парламента и Совета Европейского Союза 2016/679 от 27 апреля 2016 г. о защите физических лиц при обработке персональных данных и о свободном обращении таких данных, а также об отмене Директивы 95/46/ЕС (Общий Регламент о защите персональных данных / General Data Protection Regulation (GDPR) // OJ L 119,4.5.2016, p. 1-88. URL: http://data.europa.eu/eli/reg/2016/679/oj (дата обращения: 04.08.2024)
27 BILL C-27 // Parliament of Canada. URL: https://www.parl.ca/DocumentViewer/en/44-1/bill/C-27/first-reading (дата обращения: 04.08.2024)
28 Artificial Intelligence and Data Act // Government Canada. URL: https://ised-isde.canada.ca/site/innovation-better-canada/en/artificial-intelligence-and-data-act (дата обращения: 04.08.2024)
29 The Artificial Intelligence and Data Act (AIDA) - Companion document // Government Canada. URL: https://ised-isde.canada.ca/site/innovation-better-canada/en/artificial-intelligence-and-data-act-aida-companion-document (дата обращения: 04.08.2024)
По аналогии с Законом ЕС об ИИ введены сферы, которые считаются высокоэффективными системами ИИ:
- системы скрининга, влияющие на доступ к услугам или трудоустройству; -биометрические системы, используемые для идентификации и вывода информации;
- системы, способные влиять на поведение человека;
- системы, критически важные для здоровья и безопасности.
Закон потребует принятия соответствующих мер для выявления, оценки и снижения рисков причинения вреда или искажения результатов до того, как высокоэффективная система будет доступна для использования: человеческий надзор и мониторинг, прозрачность, справедливость и равенство, безопасность, подотчетность, стабильность и надежность.
Схожий подход нашел отражение в проекте Цифрового кодекса Республики Кыргызстан, который предусматривает установление обязательных требований или иных ограничений только в отношении систем ИИ повышенной опасности и исключительно в целях снижения риска причинения вреда охраняемым законом благам. К таким системам отнесены системы использующиеся для улучшения качества жизни физического лица на основе обработки цифровых данных о его физиологических особенностях (сервисы цифрового благополучия), а также системы которые по результатам оценки опасности в соответствии с утверждаемой методикой определены как системы повышенной опасности.
Состав обязательных требований к таким системам включает требования: 1) к управлению рисками; 2) к характеристикам систем ИИ повышенной опасности, обеспечивающим открытость, объяснимость, подконтрольность, точность, надежность и цифровую устойчивость таких систем; 3) к качеству цифровых данных для таких систем; 4) к технической документации на такие системы.
Риск-ориентированный подход для российского правопорядка не является новеллой и уже апробирован в сфере государственного контроля (надзора), установления обязательных требований, практика его применения в сфере ИИ интересна.
Органы публичной власти также неоднократно подчеркивали высокий потенциал риск-ориентированного подхода к регулированию ИИ, приверженность к его имплементации.
При формировании законодательства об ИИ необходимо учитывать, что техническая специфика систем ИИ, их многообразие (системы, основанные на правилах, или системы применяющие методы деревьев решений, регрессии, прогнозной аналитики, машинного и глубокого обучения) не является определяющим фактором при идентификации интенсивности и масштаба рисков от ее применения (системы ИИ).
Вероятность причинения вреда от применения ИИ и тяжесть этого вреда в большей степени зависит от уровня делегирования функций человека системе ИИ и сферы ее использования. Например, государственное управление, транспорт, медицина значительно более чувствительные сферы чем применение ИИ в компьютерных играх. Уровень контроля человека также очевидно влияет на потенциальные риски. Очевидно также, что потенциальный вред от применения ИИ в медицине, государственном управлении значительно выше, чем при применении в личных целях. Следовательно, ключевыми критериями при оценке рисков, подлежащих законодательному закреплению, должны выступать соответственно сфера применения ИИ и уровень делегирования системе ИИ принятия решений (полное делегирование, совместное принятие решений, частичное делегирование, система поддержки принятия решений).
Первостепенной задачей для права является формирование системы обязательных требований к использованию в государственном управлении систем автоматизированного принятия решений [4], как создающих наибольшие риски для прав и законных интересов человека и гражданина.
Список использованных источников:
1. Хабриева Т.Я. Право, искусственный интеллект, цифровизация // Человек и системы искусственного интеллекта / Под ред. акад. РАН В.А. Лекторского. - СПб.: Издательство «Юридический центр», 2022. - 328 с.
2. Синицын С.А. Российское и зарубежное гражданское право в условиях роботизации и цифровизации. Опыт междисциплинарного и отраслевого исследования: научно-практическое пособие. - М.: Инфотропик М, 2020. - 212 с.
3. Юридическая концепция роботизации: монография / отв. ред. Ю. А. Тихомиров, СБ. Нанба. - Москва: Проспект, 2019. - 240 с.
4. Назаров Н.А. Обеспечение качества данных при автоматизированном принятии решений в государственном управлении // Журнал российского права. -2024.- № 5. - С. 140-155.
ПРАКТИКА И ПЕРСПЕКТИВЫ ПРИМЕНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ПРИ ПОДГОТОВКЕ ПРОЕКТОВ НОРМАТИВНЫХ ПРАВОВЫХ АКТОВ
Зубаха Валерий Степанович
Исполняющий обязанности заместителя директора
по цифровой трансформации Научного центра
правовой информации при Министерстве юстиции
Российской Федерации, кандидат юридических наук
1. Искусственный интеллект, его место и роль в практике работы
Впервые про искусственный интеллект (ИИ) ученые заговорили еще в начале 40-х годов прошлого века. По-английски он называется Artificial Intelligence или иначе - AI. Искусственный интеллект - компьютерная программа, которая принимает, анализирует и обрабатывает данные, а затем делает выводы на их основе. Это может быть отнесение изображений к определенному классу, группировка текстов схожей тематики, а также более сложные задачи, например, написание других компьютерных программ, проектирование строений, анализ поведения субъектов и так далее. Понятием часто спекулируют, особенно в сфере маркетинга. Разработчики могут написать некий компьютерный алгоритм и выдавать его за искусственный интеллект.
Однако существует ли сегодня искусственный интеллект - полагаем, что вопрос дискуссионный. Программы есть, они повсюду. Вот только экспертное сообщество вспоминает статью математика Алана Тьюринга, опубликованную в 1950 году. Он предложил одновременно простой и сложный тест, успешное решение которого знаменует создание ИИ, а именно: когда человек не сможет понять, что беседует с машиной, и будет думать, что за ширмой стоит другой человек, значит, на свет появился истинный искусственный интеллект.
Вместе с тем внедрение технологий ИИ в ключевых отраслях экономики ведет к значимому росту эффективности деятельности организаций. По оценкам экспертов, внедрение технологий ИИ в различных отраслях российской экономики может дать дополнительный прирост ВВП страны на 2% в 2025 году.
Внедрение искусственного интеллекта может оказывать влияние как на все бизнес-процессы участников взаимодействия, и присущие ему риск-факторы (например, проблемы объяснимости алгоритмов и качества применяемых данных) могут значительно усиливать классические риски, в частности приводить к фальсификации данных, мошенничеству и случаям недобросовестной конкуренции. Обсуждение рисков ведется на разных площадках, в том числе и на зарубежных. Так, в рамках Рабочей группы по ИИ Организации Экономического Сотрудничества и Развития была создана специальная Экспертная группа по рискам и подотчетности в области ИИ, куда вошли представители Международной организации по стандартизации (ISO), Европейской комиссии, Совета Европы, ЮНЕСКО, Института ответственного ИИ (RAII).
В 2023 году возможности и риски ИИ для международного сообщества также обсуждались Советом Безопасности ООН. В частности, в фокусе внимания регуляторов находились вопросы применения генеративного ИИ и машинного обучения на основе синтетических данных в различных секторах экономики, в том числе и в юриспруденции. Это, безусловно, касается и тематики наших исследований, и мы это понимаем и принимаем.